Chefe de organização sem fins lucrativos de IA diz que "natureza fechada" da maioria das pesquisas de IA dificulta a inovação

Um ano antes de Elon Musk cofundar a OpenAI em São Francisco, o cofundador da Microsoft, Paul Allen, já havia criado um laboratório de pesquisa de inteligência artificial sem fins lucrativos em Seattle.
O Allen Institute for Artificial Intelligence (Ai2) teve como objetivo avançar a IA para o benefício da humanidade. Mais de uma década depois, o Ai2 pode não ser tão conhecido quanto o OpenAI, os criadores do ChatGPT, mas ainda está buscando IA de "alto impacto", como imaginado pelo Sr. Allen, que faleceu em 2018.
O mais recente modelo de IA da Ai2, Tulu 3 405B, rivaliza com os da OpenAI e da DeepSeek da China em vários benchmarks. Ao contrário da OpenAI, a Ai2 afirma estar desenvolvendo sistemas de IA "verdadeiramente abertos" para outros construírem. Desde 2023, o CEO da Ai2, Ali Farhadi, lidera o instituto após uma passagem pela Apple.
Ele disse: "Nossa missão é impulsionar a inovação e os avanços da IA para resolver alguns dos problemas mais urgentes da humanidade. A maior ameaça à inovação da IA é a natureza fechada da prática. Temos pressionado muito fortemente em direção à abertura. Considere o software de código aberto: a ideia central é que eu deveria ser capaz de entender o que você fez, modificá-lo, bifurcá-lo, usar parte dele, metade dele ou tudo. E uma vez que eu construo algo, eu o coloco lá fora, e você deveria ser capaz de fazer o mesmo."
O debate em torno da IA de código aberto é atualmente um tópico quente. Para nós, código aberto significa ter uma compreensão clara de suas ações. Embora modelos de pesos abertos como os da Meta sejam benéficos porque as pessoas podem simplesmente pegar esses pesos e prosseguir, eles não se qualificam como código aberto.
Código aberto implica ter acesso a cada peça do quebra-cabeça. Se eu fosse especular, alguns dos dados de treinamento para esses modelos poderiam conter material questionável. No entanto, os dados de treinamento, que são o IP real, são provavelmente a parte mais valiosa. Muitos acreditam que eles têm valor significativo, e eu concordo.
Os dados desempenham um papel crucial no aprimoramento do seu modelo e na alteração do seu comportamento. É um processo trabalhoso e desafiador. Várias empresas investem pesadamente nessa área e relutam em compartilhar suas descobertas. À medida que a IA amadurece, acredito que ela está se preparando para ser levada a sério em domínios de problemas críticos, como a descoberta científica.
Uma grande parte de algumas disciplinas envolve uma busca complexa por soluções - seja uma estrutura genética, uma estrutura celular ou configurações específicas de elementos. Muitos desses problemas podem ser formulados computacionalmente. Há um limite para o que você pode alcançar apenas baixando um modelo treinado em dados de texto da internet e ajustando-o. Nosso objetivo é permitir que cientistas treinem seus próprios modelos.
Você pode encontrar esta história em Meus Favoritos. Ou navegando até o ícone do usuário no canto superior direito.
Daily Mirror